Световни новини без цензура!
Generative AI „помага на престъпниците да създават по-сложни кибер атаки“
Снимка: independent.co.uk
Independent News | 2023-11-30 | 10:12:04

Generative AI „помага на престъпниците да създават по-сложни кибер атаки“

Те предупреждават, че генеративните AI инструменти за създаване на текст и изображения улесняват престъпниците да създават убедителни измами, но също така, че AI се използва за подпомагане на стимулирането на кибер защити, като помага за идентифициране на развиващи се заплахи, когато се появят.

На срещата на върха за безопасността на ИИ в Обединеното кралство по-рано този месец заплахата от по-сложни кибератаки, задвижвани от ИИ, беше подчертана като ключов риск в бъдеще, като световните лидери са съгласни да работят заедно по проблема.

Националният център за киберсигурност на Обединеното кралство (NCSC) също изтъкна използването на AI за създаване и разпространение на дезинформация като ключова заплаха през следващите години, особено около изборите.

Джеймс Маккуигън, защитник на осведомеността относно сигурността във фирмата за киберсигурност KnowBe4, каза, че въздействието на генеративния AI и големите езикови модели (LLM), които ги захранват, вече се усеща.

„ChatGPT революционизира пейзажа на заплахите, разследванията с отворен код и киберсигурността като цяло“, каза той пред информационната агенция PA.

„Киберпрестъпниците използват LLM, за да генерират добре написани документи с правилна граматика и без правописни грешки, за да повишат нивото си техните атаки и заобикаляне на един от най-големите червени знамена, преподавани в програмите за осведоменост относно сигурността – идеята, че лошата граматика и правописните грешки са показателни за социално инженерство по имейл или фишинг атаки.

„Не е изненадващо, че има повишена сложност и обем фишинг атаки в различни стилове, създаващи предизвикателства както за бизнеса, така и за потребителите.

„С генеративния AI, който намалява и техническата бариера пред създаването на убедителни профилни снимки, безупречен текст и дори злонамерен софтуер, AI и LLM като ChatGPT са все повече се използва за създаване на по-убедителни фишинг съобщения в мащаб.“

Следващото поколение генеративни AI модели се очаква да започне да се появява през 2024 г., като експертите прогнозират, че те ще бъдат значително по-способни от сегашното поколение модели.

Гледайки напред към потенциални бъдещи употреби на генеративен AI от лоши актьори, Борха Родригес, мениджър операции за разузнаване на заплахи във фирмата за киберсигурност Outpost24, каза, че хакерите могат да разработят AI инструменти за писане на зловреден код за тях.

>

„В момента инструменти като Copilot от GitHub помагат на разработчиците да генерират код автоматично“, каза той.

„Не е далеч от това, някой може да създаде подобен инструмент специално за подпомагане при създаването на зловреден код, скриптове , задни вратички и други, подпомагайки script kiddies (начинаещи хакери) с ниски нива на технически познания да постигнат неща, на които не са били способни в миналото.

„Тези инструменти ще помогнат на подземните общности при извършването на сложни атаки без много експертен опит, намалявайки изискванията за умения за тези, които ги изпълняват.“

Скоростта на напредъка на генеративния AI и общият неизвестен потенциал на технологията за идните години създадоха несигурност около нея, казват експертите.

Много правителства и световни лидери са започнали дискусии за това как потенциално да регулират ИИ, но без да знаят повече за възможностите на технологията, успешното регулиране ще бъде малко вероятно.

Итай Маор, старши директор по стратегията за сигурност в Cato Networks, каза, че въпросът за доверието остава ключов по отношение на LLM, които се обучават на големи количества текстови данни, и как са програмирани.

„Тъй като вълнението около LLMs се установява в по-балансирана перспектива, става наложително да се признаят както силните им страни, така и ограниченията им“, каза той.

„Потребителите трябва да проверяват важна информация от надеждни източници, като признават, че въпреки тяхната мощ, LLMs не са имунизирани срещу грешки.

„LLM като ChatGPT и Bard вече прекроиха пейзажа.

„Въпреки това продължава да съществува несигурност, докато индустрията се бори с разбирането откъде идват тези инструменти тяхната информация и дали може да им се вярва напълно.“

Източник: independent.co.uk


Свързани новини

Коментари

Топ новини

WorldNews

© Всички права запазени!